Le framework Apache Hadoop
Accueil
Contexte
Dans le monde du web actuellement, les applications et sites internet génèrent un volume de données de plus en plus important. De nombreuses opérations vont être effectuées sur ces données au travers, notamment de l'activité de data-mining.
Le traitement de ces données représente une charge processeur considérable pour les data-centers les hébergeant. Dans ce contexte, intervient le calcul distribué, permettant de titrer partie de la puissance de nombreuses machines composant les architectures d'hébergement. Le framework Apache Hadoop est une des solutions permettant d'aider les développeurs à construire des applications permettant de gérer des données, de les distribuer et d'effectuer des opérations complexes sur celles-ci.
Objectifs
L'objectif principal de cet ce site est de donner une vision globale du fonctionnement du framework Hadoop et de son intéret dans le cadre du développement d'applications de gestion de données distribuées.
Nous nous concentrerons principalement sur les aspects suivants du sujet :
- Présentation générale du framework (histoire du projet et objectifs)
- Son architecture et ses grands concepts
- Ses modes d'utilisation
- Quelques implémentations et utilisateurs
A propos de ce site
Ce site a été réalisé dans le cadre des exposés logiciels, systèmes et réseaux du cours de Génie Logiciel, encadrés par M. Dominique Revuz.
Il fait suite à l'exposé "Framework Apache hadoop", présenté le 8 Janvier 2013 par Camille Darcy, étudiant en 3ème année de formation d'Ingénieur en Informatique et Réseaux à l'école d'ingénieurs Esipe-Marne-la-Vallée.
La présentation de cet exposé, au format PowerPoint est disponible ici.